
英伟达又赚到了!FlashAttention3来了:H100利用率飙升至75%
英伟达又赚到了!FlashAttention3来了:H100利用率飙升至75%740 TFLOPS!迄今最强 FlashAttention 来了。
来自主题: AI技术研报
8535 点击 2024-07-12 17:45
740 TFLOPS!迄今最强 FlashAttention 来了。
尤洋团队新作,首个基于DiT的实时视频生成方法来了!
如何突破 Transformer 的 Attention 机制?中国科学院大学与鹏城国家实验室提出基于热传导的视觉表征模型 vHeat。将图片特征块视为热源,并通过预测热传导率、以物理学热传导原理提取图像特征。相比于基于Attention机制的视觉模型, vHeat 同时兼顾了:计算复杂度(1.5次方)、全局感受野、物理可解释性。
Mamba时代来了?
前段时间,Mistral AI 公布的 Mixtral 8x7B 模型爆火整个开源社区,其架构与 GPT-4 非常相似,很多人将其形容为 GPT-4 的「缩小版」。